Als ich zum ersten Mal mit der Integration generativer KI in die IVR-Plattform von Viamo beauftragt wurde, die Millionen von Menschen in Afrika und den Schwellenländern Asiens bedient, dauerte es nicht lange, bis ich erkannte, dass wir nicht nur eine Chat-Schnittstelle darauf kleben und einen Tag anrufen konnten, da dies einige unserer technischen und Entwicklungs-Herausforderungen vereinfachen würde. Dieses Projekt lehrte mich eine Lektion über das Entwerfen für KI, die ich denke, dass alle Designer lernen sollten: Das Entwerfen für agentische KI geht nicht darum, es chatfreundlich zu machen, sondern darum, intelligente Systeme zu entwerfen, die zuverlässig, transparent und vorhersehbar innerhalb von Funktionen arbeiten können, denen Menschen bereits vertrauen. Der fatale Fehler des Chat-First Thinking Es gibt ein gefährliches Paradigma, das in dieser Branche wegen seiner Obsession mit Chat-Schnittstellen auf KI-Produkten verwurzelt ist, und das ist, dass jeder versucht, ein "ChatGPT für Y" zu bauen. Kein Mensch stoppt und sagt: "Nun, in der Tat, nur weil wir dies aufbauen können und Chat ist ein Teil davon, das eigentlich nichts mit der Frage zu tun hat, ob oder nicht Chat-Interaktion ist eigentlich das, was wir dazu brauchen." Das ist nicht unbedingt wahr. Chat ist perfekt für offene Erforschung und kreative Aufgaben, die Reisen beinhalten, soweit sie Ziele beinhalten. Aber die meisten Geschäftsaufgaben erfordern Genauigkeit, Auditierbarkeit und Wiederholbarkeit. Beim Entwerfen der Lieferantenoberfläche für Waypoint Commodities, ein System, das sich mit Millionen-Dollar-Dünger- und chemischen Handelsgeschäften befasst, benötigten Benutzer keine benutzerfreundliche Chat-Schnittstelle, die erforschende Gespräche über ihre Transaktionen erleichtern könnte. Sie benötigten Schnittstellen, die KI-Systeme ermöglichen, Fehler anzuzeigen, optimale Routen zu identifizieren und Compliance-Bedenken hervorzuheben, ohne kritische Transaktionen mit jeglicher Unsicherheit Das primäre Problem mit chat-zentrierter KI ist, dass es die Entscheidungsfindung unter einer Fassade von Gesprächen ermöglicht. Benutzer können nicht leicht überprüfen, welche Informationen verwendet wurden, was angewendet wurde und was als eine alternative Option erforscht wurde. Natürlich ist dies für Anfragen mit niedrigen Einsätzen akzeptabel, aber katastrophal für Konsequenzentscheidungen.Wenn unser Versandüberwachungssystem entworfen wurde, das Aufträge durch die Erfüllung verfolgte, stand unser Waypoint-Projekt vor einer Herausforderung, die es den Benutzern erforderte, sicherzustellen, dass KI-Nachrichten über mögliche Verzögerungen oder Marktschwankungen nicht auf fiktiven Beobachtungen basierten, sondern auf tatsächlichen Fakten, die von der KI selbst erforscht und verifiziert Multi-Agent-Systeme erfordern Multi-Modale Schnittstellen Aber dann kam es zu einem Paradigmenwechsel in meinem Denken, als ich aufhörte, nur für ein KI-Modell zu entwerfen und mich auf das Entwerfen von Umgebungen konzentrierte, die aus mehreren spezialisierten KI-Entitäten bestanden, die als System zusammenarbeiten. Es bedeutete, dass wir das Paradigma eines One-Window-Chat-Systems vollständig aufgeben mussten. Stattdessen haben wir eine Multi-Window-Schnittstelle aufgebaut, über die mehrere Interaktionsmethoden gleichzeitig verwendet werden konnten. Schnelle Fakten würden sofortige Antworten über die AI-Sprachausgabe erhalten. Troubleshooting würde eine geführte Interaktion beinhalten, durch die die AI vorläufige Fragen beantworten würde, bevor sie den Benutzer auf ein Experten-System umleiten. Benutzer, die nach Informationen über staatliche Einrichtungen suchen, würden antworten formatieren, die entsprechend Quellen zitieren würden. All diese Interaktionsmethoden hätten unterschiedliche visuelle und audio-Signale, die die Benutzererwartungen entsprechend aufbauen würden. Diese Ergebnisse zeigten, dass diese Strategie gültig war, und wir erlebten eine verbesserte Reaktionsgenauigkeit von mehr als dreißig Prozent und erhöhte Benutzerbeteiligungsniveaus.Mehr signifikant ist, dass Benutzerabtrennungsniveaus um zwanzig Prozent gesunken sind, da Benutzer aufgehört haben, Gespräche zu verlassen, weil sie frustriert waren, dass Erwartungen nicht übereinstimmen. Design für die Verifizierung, nicht nur für die Automatisierung Einer der wichtigsten Prinzipien des agentenorientierten UX-Designs, den ich verteidige, ist, dass „Automatisierung ohne Verifizierung“ lediglich „technische Schulden als KI maskieren“ ist. „Es sollte neben jedem in einem System verwendeten KI-Agenten ein „Escape-Hatch“ geben, der es „Benutzern erlaubt, seine Begründung zu validieren“ und „seine Entscheidung nach und nach zu übertreffen“, „nicht weil man kein Vertrauen“ in die KI-Fähigkeiten hat, sondern weil man „die Tatsache respektiert“, dass „Benutzer letztendlich verantwortlich sind“, wenn „in regulierten Umgebungen oder hochwertigen Transaktionen“. Als ich für das Entwerfen des Admin-Dashboards für das Onboarding neuer Benutzer bei Waypoint verantwortlich war, hatten wir einen typischen Fall eines Automatisierungsprojekts, der die Verarbeitung von Inkorporationsdokumenten durch KI ermöglicht, wesentliche Informationen abstrahiert und Benutzerprofile automatisch populiert, wodurch die Benutzer-Onboarding von mehreren Stunden auf nur wenige Minuten reduziert wird.Natürlich verstanden wir, dass Ungenauigkeiten ein Unternehmen in einen Fall der Nichteinhaltung führen könnten oder, noch schlimmer, betrügerische Benutzerprofile erstellen. In unserer Schnittstelle haben wir das folgende System implementiert, um die Vertrauensstufen der KI für jedes Feld anzuzeigen, das extrahiert wurde: Felder mit hoher Genauigkeit hatten schwarze Textfarbe und grüne Tickmarken; Die mittlere Genauigkeit war orangefarben und ein neutrales Symbol wurde verwendet. Felder, die eine geringe Genauigkeit oder fehlende Informationen hatten, hatten eine rote Farbe und ein Warnsymbol. Um alle Fehler zu identifizieren, die KI-Systeme verpasst hatten, waren dreißig Sekunden pro Profil genug Zeit für Administratoren, da sie durch dieses System genug Kontext bekamen. Aber das Ergebnis war klar: Wir erreichten eine Reduzierung der Onboarding-Zeit von vierzig Prozent über voll manuelle Methoden und eine größere Genauigkeit als die menschlichen oder KI-Ansätze allein. Aber noch bedeutender, das Admin-Personal vertraute diesem System, weil sie tatsächlich seiner Logik folgen konnten. Progressive Offenlegung von Agentenfähigkeiten Ein weiterer subtiler, aber wesentlicher Bereich der agentenorientierten UX, mit dem die meisten Designer kämpfen, ist die Bereitstellung von Benutzern mit Informationen darüber, was ihre Agenten erreichen können und können nicht, ohne sie mit den Möglichkeiten und möglichen Anwendungen dieser Fähigkeiten zu überwältigen. Dies gilt insbesondere für Systeme, die generative KI anwenden, und da wir bei FlexiSAF Edusoft kämpften, wo ich diese Systeme entwickelte, haben sie Anwendungen, die weit reichen, aber über verschiedene Aufgaben oder Aktivitäten unberechenbar sind. Benutzer, in diesem Fall Studenten und Eltern, benötigen Leitung durch oft komplexe Zulassungsverfahren und andererseits müssen über die Antworten informiert werden, die von AI bereitgestellt werden können und was menschliche Interaktion erfordert. Unsere Implementierung lieferte auf Interaktion basierende Fähigkeitstipps, was bedeutet, dass sie, wenn man das System benutzte, Beispiele für Fragen erhalten würden, die die KI bei der Beantwortung stark war, verglichen mit Fragen, die von den Personalpersonen der Institution besser beantwortet werden könnten, was bedeutet, dass, wenn ein Benutzer Fragen über Bewerbungsfristen eingibt, sie Beispiele für Fragen sehen würden, die die KI bei der Beantwortung stark war, wie "Wann ist die Frist für Engineering-Anwendungen?" im Gegensatz zu Fragen, die sie effektiver beantworten könnten, zum Beispiel, "Kann ich von der Zahlung von Bewerbungsgebühren befreit werden?" Dies war nicht nur zur Verbesserung des Modells, sondern es ermöglicht eine UX-Funktion, durch die Benutzer ausdrücken können, dass sie eine Eskalation ihres Problems benötigen und dass sie von einem AI-System gestrandet worden waren. Transparenz und ihre Nützlichkeit als Vertrauensbildung Vertrauen wird natürlich nicht durch verbesserte KI-Algorithmen, sondern durch transparentes Systemdesign geschaffen, das es einem Benutzer ermöglicht zu sehen, was das System weiß, warum es seine Schlussfolgerungen getroffen hat und wo seine Grenzen liegen. eHealth Africa, unser Projekt, das Logistik und Datenspeicherung von Lieferketten im medizinischen Sektor beinhaltet, machte dies zu einem seiner nicht verhandelbaren Projekte: „Wenn KI-Computeragisten den Zeitpunkt der Impfstofflieferungen vorhersagen oder optimale Routen für die Lieferung angeben, mussten diese Rechtfertigungen erklärbar sein, weil menschliche Entscheidungsträger entscheiden würden, ob ländliche Kliniken lebensrettende Waren rechtzeitig erhalten würden.“ Um dies anzugehen, bauten wir, was ich sage, „Reasoning Panels“, die die Ausgabe neben AI-Vorschlägen lieferten. Diese Reasoning Panels zeigten keine Modelldetails seiner Berechnungen, sondern nur Informationen darüber, warum es seine Empfehlungen erreichte, einschließlich der Straßenbedingungen, der vorherigen Lieferzeiten für diese Route, des Wetters und der verfügbaren Transportkapazität. Die Reasoning Panels ermöglichten Feldbetreibern, schnell festzustellen, ob sie veraltete Ratschläge von AI erhalten hatten oder ob sie eine wesentliche, kürzlich verfügbare Tatsache, wie eine Brücke schließen, vernachlässigt hatten und sie unerlässlich und transparent machten, anstatt opaque Entscheidungsträger, wie es bei Schwarzen Kästchen der Fall wäre. Zu diesem Zweck haben wir hilfreiche Fehlerstaten erstellt, die beschreiben würden, warum die KI ihre Empfehlung nicht anbieten konnte, anstatt auf eine generische Fehlermeldung zurückzufallen. Entwerfen von Handoffs zwischen Agenten und Menschen Aber vielleicht ist eines der unentwickeltesten Themen von agentischer UX die Übertragung, oder genau, wann und wie ein KI-Agent die Kontrolle über ein System oder eine Interaktion an einen Menschen übertragen soll, ob dieser Mensch ein Kollege ist oder selbst ein Benutzer dieses Systems oder Interaktion ist. Unser Kontextübertragungsprotokoll wurde so gestaltet, dass nach jeder Interaktion der KI eine strukturierte Zusammenfassung auf dem Bildschirm des Betreibers angezeigt wurde, bevor sie den Benutzer begrüßen konnten, und diese Zusammenfassung enthielt, was vom Benutzer gefragt wurde, was die KI zu sagen beabsichtigte und warum die KI diesen Anruf eskalierte. In Fällen, in denen die Betreiber aufgefordert wurden, ihre Benutzer zurück zum automatisierten System zu verweisen, wurde die Benutzeroberflächenfunktionalität von den Betreibern effektiv genutzt, um angemessene Erwartungen an die Autonomie der KI basierend auf bestimmten Aufgaben zu kommunizieren, die es den Benutzern ermöglichen würden, zurück zum automatisierten System verwiesen zu werden, anstatt dies mit erwarteten Frustrationen zu tun. Prinzipien des pragmatischen Designs von Agentic UX Als Praktiker, der seit vielen Jahren KI-fähige Systeme entwirft, habe ich heute einige pragmatische Richtlinien formuliert, die mir helfen, Agentic UX effektiv zu entwerfen: Erstens, Design für den Workflow, nicht für die Technologie. Benutzer kümmern sich nicht darum, ob sie durch KI, Regeln oder menschliche Intelligenz unterstützt werden. Sie kümmern sich nur darum, ob sie ihre Aufgaben effizient und bequem erfüllen können. Beginnen Sie mit Reverse-Engineering vom Zielergebnis, identifizieren Sie Bereiche mit Mehrwert und zusätzlicher Komplexität aufgrund von KI-fähigen Agenten, und stoppen Sie dann und gehen Sie entsprechend voran. Benutzer müssen sich bewusst sein, wann sie eines Bereichs der Intelligenz verlassen und andere Bereiche betreten, wie die Intelligenz des Abrufs, Modellintelligenz und menschliche Intelligenz, und konsequente visuelle und Interaktionsrichtlinien entsprechend festlegen, so dass sie sich nicht fragen, welche Art von Antwort sie bekommen werden und wann sie es bekommen werden. Drittens sollten KI-Systeme idealerweise dazu beitragen, die Entscheidungsfindung zu beschleunigen, indem sie relevante Informationen hervorbringen und Aktionswege vorschlagen, aber diese sollten letztendlich von menschlichen Nutzern durchgeführt werden, die einen Kontext besitzen, der für die KI-Systeme selbst nicht verfügbar ist. Aufgrund von Projekten, die erfolgreich die Finanzierung gesichert haben, das Engagement durch bestimmte Zunahmen erhöht haben und die Nutzerzahlen in den Tausenden verarbeitet haben, haben wir nicht gelungen, weil wir anspruchsvolle KI-Systeme besessen oder versucht haben zu erstellen.